Introduction au cluster sous Linux

 
 

Ce tutoriel fait suite à celui sur la mise en place de RAID. Après avoir apporté de la redondance et de la tolérance de panne aux disques contenant les données il est également important voir crucial de faire la même chose pour les serveurs.

I. Introduction sur les clusters

I.1. Qu’est-ce qu’un cluster ?

Littéralement un cluster est une « grappe », en informatique on parlera donc de grappe d’ordinateurs comme on peut aussi parler de grappe de disques durs pour le RAID. Disposer d’un cluster revient à disposer de plusieurs serveurs formant une seule entité. Il existe deux types d’utilisations pour les clusters :

I.2. Présentation des outils utilisés

Pacemaker est un gestionnaire de cluster. Il est garant de la haute disponibilité des nœuds de votre cluster en détectant et réparant les erreurs entre les nodes. Celui-ci utilise la couche de message fournit par corosync ou heartbeat.

Fonctionnalités principales de pacemaker :

###I.2.1. Les types de cluster supportés

  1. 1.Cluster Actif/Passif  

 
 

Dans cette configuration, il y a une véritable notion de maître / esclave entre les noeuds du cluster. Couplé à DRBD (système de RAID Over IP, prochaine article), celui-ci offre une topologie haute disponibilité très satisfaisante. En mode actif/passif, un noeud est désigné maître, il gère la ressource partagé, son contenu est monté, la réplication est effectuée au niveau des blocks sur l’autre noeud. Si le noeud maître tombe, le second noeud prend le relais de la ressource et monte le device. Les données sont toujours présentes et on peut continuer à écrire de façon transparente. Lorsque la machine anciennement maître du cluster sera de nouveau opérationnelle, elle sera désignée comme esclave. Voilà comment s’effectuent les bascules.

  1. 1.Cluster N+1  

 
 

Dans cette configuration, on combine plusieurs machines en mode actif/passif afin d’augmenter la disponibilité. Même principe que la première topologie mais à plus grande échelle.

  1. 1.Cluster Actif/Actif ou N To N  

 
 

Dans cette configuration, la basculement est complètement transparent. En effet, sur un cluster actif/passif on utilise un système de fichiers ne pouvant être monté qu’une seule fois, c’est le cas de ext2,ext3,ext4. Hors ici on utilise un système de fichier distribué comme GFS ou OCFS2. On écrit donc sur un disque et la donnée est instantanément répliquée sur les autres noeuds. De plus, pacemaker peut gérer plusieurs services afin d’alléger la charge de travail de chaque noeud.

Pour plus d’informations et de détails sur le projet je vous invite vivement à aller sur le site officiel

I.3. Pré-requis

Comme toujours pour mes tests j’ai utilisé des machines virtuelles, idéalement j’ai récupéré ma VM de test de RAID (on en aura besoin plus tard) :

Je passe les étapes d’attributions d’adresses IP statiques. Avant de démarrer vérifier que les IP du réseau Private se ping bien. Voici mon fichier /etc/network/interface :

root@cluster-node-1:~# cat /etc/network/interfaces

# This file describes the network interfaces available on your system

# and how to activate them. For more information, see interfaces(5).

 

# The loopback network interface

auto lo

iface lo inet loopback

 

# The primary network interface

#allow-hotplug eth0

#iface eth0 inet dhcp

@auto eth0

iface eth0 inet static

address 192.168.101.157

netmask 255.255.255.0

gateway 192.168.101.2

 

# The second network interface

auto eth1

iface eth1 inet static

address 10.0.0.1

netmask 255.0.0.0

II. Mon premier cluster

II.1. Installation et configuration de corosync

Corosync est un outils permettant d’implémenter un cluster de type tolérance de panne. Dans le principe on a 2 serveurs (ou plus) reliés à la fois au réseau local et par une connexion privé, les 2 serveurs ne forment qu’une seule machine mais seul un des deux fournit le service. C’est corosync qui gère le basculement grâce à la ligne de vie (lien entre les machines du cluster) lorsqu’un serveur tombe, l’autre noeud prend le relais. Celui-ci fait parti des dépendances du paquet pacemaker.

Dans un premier temps nous allons installer le paquet necessaire :

root@cluster-node-1:~# aptitude install -y pacemaker

Générer la clef d’authentification entre chaque node :

root@cluster-node-1:~# corosync-keygen

La clef sera générée dans /etc/corosync/authkey, cette clef doit être copiée sur chaque node du cluster. Pour copier sur le node 2 on utilise SCP :

root@cluster-node-1:~# scp /etc/corosync/authkey root@cluster-node-2:/etc/corosync/

Maintenant il faut éditer le fichier /etc/corosync/corosync.conf pour renseigner le réseau ou sous-réseau des clusters, dans notre cas c’est 10.0.0.0 :

interface {

  # The following values need to be set based on your environment

  ringnumber: 0

  bindnetaddr: 10.0.0.0

  mcastaddr: 226.94.1.1

  mcastport: 5405

Activer le service (seulement valable pour Debian et Ubuntu), éditer /etc/default/corosync and mettre START=yes.

Démarrer le daemon corosync :

root@cluster-node-1:~# /etc/init.d/corosync start

Starting corosync daemon: corosync.

À ce stade on peut déjà remarquer que les noeuds sont bien connectés entre eux mais que le cluster n’est pas encore entièrement configuré. Vérifions cela avec la commande :

root@cluster-node-1:~# crm_mon --one-shot -V

============

Last updated: Tue Jun 28 23:02:08 2011

Stack: openais

Current DC: cluster-node-1 - partition with quorum

Version: 1.0.9-74392a28b7f31d7ddc86689598bd23114f58978b

2 Nodes configured, 2 expected votes

0 Resources configured.

============

Online: [ cluster-node-1 cluster-node-2 ]

On observe que les noeuds sont bien connectés. À noter que la commande crm_mon -1 fait la même chose.

II.2. Paramétrage du cluster

Maintenant nous allons attribuer une adresse IP virtuelle au cluster, pour cela nous allons utiliser la cli CRM (Cluster Resource Manager) :

root@cluster-node-1:~# crm

crm(live)# cib new ma-config-cluster

INFO: ma-config-cluster shadow CIB created

On désactive l’exemple STONITH, pour faire simple c’est une fonction de sécurité des données lors du basculement. Il est garant de l’intégrité des données à chaque bascule. Ici nous n’en avons pas besoin.

crm(ma-config-cluster)# propertystonith-enabled=false

Et enfin on assigne une adresse IP virtuelle au cluster et on gère la bascule entre les noeuds :

crm(ma-config-cluster)configure# primitive failover-ip ocf:heartbeat:IPaddr params ip=10.0.0.100 op monitor interval=10s

Descriptions des arguments :

On vérifie et valide les commandes :

crm(ma-config-cluster)configure# verify

crm(ma-config-cluster)configure# end

There are changes pending. Do you want to commit them? y

crm(ma-config-cluster)#

crm(ma-config-cluster)# cib use live

crm(live)# cib commit ma-config-cluster

INFO: commited 'ma-config-cluster' shadow CIB to the cluster

crm(live)# quit

bye

Et voilà ! Le cluster est activé et fonctionnel !

root@cluster-node-1:~# crm_mon --one-shot -V

============

Last updated: Tue Jun 28 23:02:08 2011

Stack: openais

Current DC: cluster-node-1 - partition with quorum

Version: 1.0.9-74392a28b7f31d7ddc86689598bd23114f58978b

2 Nodes configured, 2 expected votes

1 Resources configured.

============

Online: [ cluster-node-1 cluster-node-2 ]

failover-ip    (ocf::heartbeat:IPaddr):        Started cluster-node-1

Quoi c’est tout ? Et oui vraiment, légère déception comme pour le RAID. Vous pouvez maintenant faire des tests de basculements simplement en éteignant un des deux nodes, normalement les ressources devraient basculer sur le node restant. Vous pouvez vérifier cela avec la commande

crm_mon --one-shot -V la variable Started devrait changer.

III. Tricks and tips

III.1. Changer l’IP virtuelle du cluster

Petite astuce pour changer l’IP du cluster :

root@cluster-node-1:~# crm

configure

edit

commit

show

verify

end

quit

Après avoir rentré la commande « edit » vous pourrez éditer la configuration du fichier du cluster, chercher la ligne correspondante à l’adresse IP virtuelle du cluster et renseigner la nouvelle IP. Après avoir commiter faîte un petit test de ping pour voir que tout fonctionne et que la ressource est maintenant accessible sur la nouvelle adresse.

III.2. Changer l’éditeur de fichier par défaut

Voici comment changer l’éditeur de configuration par défaut, ici on ajoute l’éditeur nano :

root@cluster-node-1:~# crm

options

editor vim

show

III.3. Ajouter un noeud au cluster

Rien de plus simple, il suffit simplement d’appliquer le même paramétrage qu’aux deux nodes précédent. En résumé :

  1. 1.Installer pacemaker  

  2. 2.Via SCP on copie le fichier /etc/corosync/corosync.conf sur le nouveau node  

  3. 3.Toujours via SCP on copie la authkey sur le nouveau node.  

  4. 4.Lancer le daemon corosync avec la commande /etc/init.d/corosync start  

III.4. Mettre des nodes en standby

Pour des raisons de maintenances, mise à jour ou autre on peut avoir besoin de mettre en standby un node du cluster, pour cela :

root@cluster-node-1:~# crm

crm(live)# node

crm(live)node# standby <votre_node>

crm(live)node# quit

bye

Vous devriez observer le basculement de la ressource sur l’autre noeud du cluster. Pour remettre celui-ci en ligne :

root@cluster-node-1:~# crm

crm(live)# node

crm(live)node# online <votre_node>

crm(live)node# bye

bye

III.5. Migrer le node maître volontairement

Après la manipulation précédente la ressource du cluster est sur le node 2 si vous avez mis en standby le node 1 ou inversement. Vous voulez peut être que le node 1 (ou 2) reprenne le contrôle de la ressource, pour cela :

root@cluster-node-1:~# crm

crm(live)# resource

crm(live)resource# list

failover-ip     (ocf::heartbeat:IPaddr) Started

crm(live)resource# migrate failover-ip cluster-node-1

crm(live)resource# bye

bye

III.6. Arrêter et supprimer une ressource du cluster

Vous vous êtes trompé et voulez recommencer ?

root@cluster-node-1:~# crm resource stop ma_resource

root@cluster-node-1:~# crm configure delete ma_resource

III.7. Voir sur quel node fonctionne la ressource

Rentrer la commande suivante :

root@cluster-node-1:~# crm_resource -r failover-ip -W

resource failover-ip is running on: cluster-node-1

III.8. En savoir plus sur les ressources OCF

Concernant les primitives, il y en a plusieurs que l’on peut configurer (nous verrons ça plus précisément dans le prochain article). On peut déjà se faire une idée avec la commande suivante :

root@cluster-node-1:~# crm ra list ocf heartbeat

AoEtarget           AudibleAlarm        CTDB                ClusterMon          Delay               Dummy               EvmsSCC             Evmsd               Filesystem          ICP

IPaddr              IPaddr2             IPsrcaddr           IPv6addr            LVM                 LinuxSCSI           MailTo              ManageRAID          ManageVE            Pure-FTPd

Raid1               Route               SAPDatabase         SAPInstance         SendArp             ServeRAID           SphinxSearchDaemon  Squid               Stateful            SysInfo

VIPArip             VirtualDomain       WAS                 WAS6                WinPopup            Xen                 Xinetd              anything            apache              db2

drbd                eDir88              iSCSILogicalUnit    iSCSITarget         ids                 iscsi               ldirectord          mysql               mysql-proxy         nfsserver

oracle              oralsnr             pgsql               pingd               portblock           postfix             proftpd             rsyncd              scsi2reservation    sfex

Ici on a listé les resources disponibles pour heartbeat mais on peut également le faire pour pacemaker.

Pour plus de détails sur chaque resource, leurs paramètres et leur syntaxe :

root@cluster-node-1:~# crm ra meta IPaddr

Manages virtual IPv4 addresses (portable version) (ocf:heartbeat:IPaddr)

This script manages IP alias IP addresses

It can add an IP alias, or remove one.

Parameters (* denotes required, [] the default):

ip* (string): IPv4 address

        The IPv4 address to be configured in dotted quad notation, for example

        "192.168.1.1".

nic (string, [eth0]): Network interface

        The base network interface on which the IP address will be brought

        online.

        If left empty, the script will try and determine this from the

        routing table.

        Do NOT specify an alias interface in the form eth0:1 or anything here;

        rather, specify the base interface only.

cidr_netmask (string): Netmask

        The netmask for the interface in CIDR format. (ie, 24), or in

        dotted quad notation  255.255.255.0).

        If unspecified, the script will also try to determine this from the

        routing table.

broadcast (string): Broadcast address

        Broadcast address associated with the IP. If left empty, the script will

        determine this from the netmask.

iflabel (string): Interface label

        You can specify an additional label for your IP address here.

lvs_support (boolean, [false]): Enable support for LVS DR

        Enable support for LVS Direct Routing configurations. In case a IP

        address is stopped, only move it to the loopback device to allow the

        local node to continue to service requests, but no longer advertise it

        on the network.

local_stop_script (string):

        Script called when the IP is released

local_start_script (string):

        Script called when the IP is added

ARP_INTERVAL_MS (integer, [500]): milliseconds between gratuitous ARPs

        milliseconds between ARPs

ARP_REPEAT (integer, [10]): repeat count

        How many gratuitous ARPs to send out when bringing up a new address

ARP_BACKGROUND (boolean, [yes]): run in background

        run in background (no longer any reason to do this)

ARP_NETMASK (string, [ffffffffffff]): netmask for ARP

        netmask for ARP - in nonstandard hexadecimal format.

Operations' defaults (advisory minimum):

        start         timeout=20s

        stop          timeout=20s

        monitor_0     interval=5s timeout=20s

Tout comme pour l’article sur les clusters, l’essentiel est là après à vous de fouiller la console crm.

Bon cluster !